由Elsayed,Goodfellow和Sohl-Dickstein引入的对抗性重编程试图通过操纵其输入而不修改其权重来重新利用神经网络来执行不同的任务。我们证明,具有随机权重的两层relu神经网络可以对抗编程,以便在伯努利数据模型上与超立方体顶点获得任意高精度,前提是网络宽度不超过其输入尺寸。我们还实质上加强了phuong和Lampert对梯度流的定向收敛的最新结果,并作为必然的,即在正交可分开的数据集上训练两层relu神经网络的训练可能会导致其对抗性重新编程失败。我们通过实验来支持这些理论结果,这些实验表明,只要批处理归一层是适当初始化的,即使是随机权重的未经训练的网络也容易受到对抗性重编程的影响。这与最近的几部作品中的观察结果相反,这些观察表明,在任何可靠性上,未经训练的网络都无法进行对抗重编程。
translated by 谷歌翻译